Световни новини без цензура!
The State of AI: новите правила на война
Снимка: ft.com
Financial Times | 2025-11-17 | 20:12:25

The State of AI: новите правила на война

Тази публикация е версия на място на нашия бюлетин The State of AI. Регистрирайте се тук, с цел да получавате бюлетина, изпращан напряко във входящата ви поща всеки понеделник. За да прочетете по-ранни издания на поредицата, щракнете тук. Разгледайте всички наши бюлетини тук

Добре пристигнали още веднъж в The State of AI, ново съдействие сред Financial Times и MIT Technology Review. Всеки понеделник през идващите четири седмици създатели от двете издания ще разискват един аспект от генеративната AI гражданска война, изменяща световната власт.

Миналата седмица разгледахме енергийната рецесия. Тази седмица Хелън Уоръл, проверяващ кореспондент на FT и някогашен редактор по защитата и сигурността, и Джеймс О’Донъл, старши кореспондент, отразяващ AI в MIT Technology Review, преглеждат етичните усложнения и финансовите тласъци към потреблението на AI от военните.

Джеймс и Хелън ще бъдат интервюирани за концепциите си в подкаста News Briefing на FT идната седмица — чуйте полемиката им тук.

И можете да чуете Джон Торнхил и Caiwei Chen, които написаха първия бюлетин за Съединени американски щати против Китай, интервюирани в подкаста Rachman Review на FT.

Хелън Уоръл написа

Юли 2027 година е и Китай е на прага на нахлуването в Тайван. Автономните дронове с благоприятни условия за ориентиране с изкуствен интелект са готови да преодолеят въздушната защита на острова, защото поредност от хакерски атаки, генерирани от изкуствен интелект, прекъсват енергийните доставки и основните връзки. Междувременно голяма дезинформационна акция, подхваната от ръководена от изкуствен интелект прокитайска плантация за мемове, се популяризира в световните обществени медии, заглушавайки недоволството против акта на експанзия на Пекин.

Сценарии като този внесоха антиутопичен смут в дебата за потреблението на изкуствен интелект във военни дейности. Военните командири се надяват на цифрово усъвършенствана мощ, която е по-бърза и по-точна от водената от хора борба. Но има опасения, че защото AI поема все по-централна роля, същите тези командири ще изгубят надзор над спор, който ескалира прекомерно бързо и липсва етичен или юридически контрол. Хенри Кисинджър, някогашният държавен секретар на Съединени американски щати, прекара последните си години в предупреждаване за идната злополука на водената от изкуствен интелект война.

Улавянето и смекчаването на тези опасности е военният приоритет — някои биха споделили „ моментът на Опенхаймер “ — на нашата ера. Един нововъзникващ консенсус на запад е, че решенията към разполагането на нуклеарни оръжия не би трябвало да се разпореждат на AI. Генералният секретар на Организация на обединените нации Антониу Гутериш отиде по-далеч, призовавайки за цялостна възбрана на изцяло самостоятелни смъртоносни оръжейни системи. От значително значение е регулирането да върви в крайник с разрастващите се технологии. Но в подхранваното от научната фантастика неспокойствие е елементарно да загубите визия какво в действителност е допустимо. Както показват откриватели от Белферския център на Харвард, оптимистите за ИИ постоянно подценяват провокациите на въвеждането на изцяло самостоятелни оръжейни системи. Напълно допустимо е опциите на ИИ в борба да се преувеличават.

Професор Антъни Кинг, основен покровител на този мотив, допуска, че вместо да размени хората, ИИ ще се употребява за възстановяване на военната прозорливост. Дори в случай че характерът на войната се трансформира и отдалечените технологии усъвършенстват оръжейните системи, той упорства: „ Пълната автоматизация на самата война е просто заблуда. “

От трите сегашни случая на потребление на AI за военни цели, нито един не съставлява цялостна автономност. Разработва се за обмисляне и логистика, кибервойна (при бойкот, шпионаж, хакерски и осведомителни операции) и, най-противоречивото, ориентиране на оръжия. Последният към този момент се употребява на бойните полета в Украйна и Газа. Войските на Киев употребяват програмен продукт с изкуствен интелект, с цел да насочват дронове, способни да заобикалят съветските заглушители, до момента в който се доближават до чувствителни обекти. Израелските отбранителни сили са създали подпомагана с изкуствен интелект система за подкрепяне на вземането на решения, известна като „ Lavender “, която е помогнала за идентифицирането на към 37 000 евентуални човешки цели в Газа. 

Очевидно съществува заплаха базата данни на Lavender да възпроизведе пристрастията на данните, върху които се образова. Но военният личен състав също носи пристрастия. Един офицер от израелското разузнаване, употребявал Lavender, твърди, че има повече религия в справедливостта на „ статистически механизъм “, в сравнение с безутешен боец.

Технологичните оптимисти, проектиращи оръжия с изкуствен интелект, даже отхвърлят, че са нужни характерни нови контроли за ръководство на техните качества. Кийт Диър, някогашен боен офицер от Обединеното кралство, който в този момент ръководи компанията за стратегически прогнози Cassi AI, споделя, че съществуващите закони са повече от задоволителни. „ Вие се уверявате, че няма нищо в данните за образованието, което може да накара системата да стане фалшива   . когато сте уверени, че я разпростирате — и вие, човешкият пълководец, сте виновни за всичко, което те могат да създадат, което се обърка. “

Интригуваща мисъл е, че част от страха и шока по отношение на потреблението на AI във война може да идва от тези, които не са осведомени с бруталните, само че реалистични военни правила. Какво мислиш, Джеймс? Дали известно опълчване на ИИ във войната е по-малко по отношение на потреблението на самостоятелни системи и в действителност мотив против самата война? 

Джеймс О’Донъл дава отговор

Здравей, Хелън,

Едно нещо, което забелязах е, че има фрапантна смяна в настройките на AI фирмите във връзка с военните приложения на техните артикули. В началото на 2024 година OpenAI недвусмислено забрани потреблението на своите принадлежности за водене на война, само че до края на годината подписа съглашение с Anduril, с цел да му помогне да смъква дронове на бойното поле. 

Тази стъпка — несъмнено, не е изцяло самостоятелно оръжие, а значително приложение на AI на бойното поле — означи фрапантен поврат в това до каква степен софтуерните компании могат обществено да се свържат с защитата. 

Какво се случи по пътя? От една страна, това е рекламата. Казват ни, че изкуственият разсъдък освен ще донесе свръхразузнаване и научни открития, само че и в областта на националната сигурност дава обещание да направи войната по-остра, по-точна и по-малко податлива на човешки неточности. Говорих с американски морски пехотинци, да вземем за пример, които тестваха вид изкуствен интелект, до момента в който патрулираха в южната част на Тихия океан, за който се популяризираше, че проучва задгранично разузнаване по-бързо, в сравнение с човек би могъл. 

Второ, парите приказват. OpenAI и други би трябвало да стартират да възвръщат част от невъобразимите суми пари, които харчат за образование и ръководство на тези модели. Малцина имат по-дълбоки джобове от Пентагона. Ръководителите на защитата на Европа наподобява също желаят да пръскат парите. Междувременно размерът на финансирането на рисков капитал за отбранителни технологии тази година към този момент е двойно по-голям от този през цялата 2024 година, надявайки се да завоюва пари от новооткритата подготвеност на военните да купуват от започващи компании. 

Наистина мисля, че опозицията против войната с изкуствен интелект попада в няколко лагера, един от които просто отхвърля концепцията, че по-прецизното ориентиране (ако в действителност е по-прецизно) ще значи по-малко жертви или по-скоро просто повече война. Помислете за първата епоха на война с дронове в Афганистан. Тъй като ударите с дронове станаха по-евтини за използване, можем ли в действителност да кажем, че понижиха касапницата или просто разрешиха повече опустошения на $?

Но вторият лагер на рецензия (и в този момент най-сетне стигам до вашия въпрос) идва от хора, добре осведомени с действителностите на войната, само че които имат доста съответни недоволства по отношение на главните ограничавания на технологията. Миси Къмингс, да вземем за пример, е някогашен военен водач от Военноморски сили на Съединени американски щати, който в този момент е професор по инженерство и компютърни науки в университета Джордж Мейсън. Тя беше откровена в убеждението си, че съответно огромните езикови модели са склонни да вършат големи неточности във военни настройки.

Типичният отговор на това недоволство е, че резултатите на AI са тествани от хора. Но в случай че един AI модел разчита на хиляди входни данни за своето умозаключение, може ли това умозаключение в действителност да бъде тествано от един човек?

Технологичните компании дават извънредно огромни обещания по отношение на това, което AI може да направи в тези приложения с високи залози, до момента в който натискът за внедряването им е неимоверно висок. За мен това значи, че е време за повече песимизъм, не по-малко.

Хелън Уоръл дава отговор

Здравей, Джеймс, 

Определено би трябвало да продължим да слагаме под въпрос сигурността и надзора на системите за водене на AI — и да държим политическите водачи под отговорност в тази област. Трябва също по този начин да използван прочут песимизъм към това, което вярно описвате като „ изключително огромни обещания “, дадени от някои компании по отношение на това, което AI може да реализира на бойното поле. Ще има както благоприятни условия, по този начин и рискове в това, което на военните се предлага от една релативно зараждаща се (и процъфтяваща) сцена на отбранителните технологии. Опасността е, че при скоростта и секретността на конкуренцията във въоръжаването с изкуствен интелект тези нововъзникващи качества може да не получат деликатното разглеждане и спор, от който обезверено се нуждаят.

Допълнително четене

Майкъл К. Хоровиц, шеф на Perry World House от Университета на Пенсилвания, изяснява нуждата от отговорност при създаването на военни системи с изкуствен интелект в тази обява на FT.

Технологичният подкаст на FT пита какво може да ни каже екосистемата на отбранителните технологии на Израел за бъдещето на войната. по какъв начин американските бойци употребяват генеративен AI, с цел да оказват помощ за претърсването на хиляди разследващи данни с отворен код

Препоръчани бюлетини за вас

Промяната на AI — Джон Бърн-Мърдок и Сара О’Конър се впускат в това по какъв начин AI трансформира света на работа. Регистрирайте се тук

Реклама за вести — Нашият обзор на бизнеса и стопанската система. Регистрирайте се тук

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!